在人类命运共同体理念指导下,基于共商共建共享的基本原则,为破解当前治理的行动赤字困境,应当加快构建人工智能全球治理的行动共同体,围绕行动理念、行动主体、行动机制、行动领域与行动策略,将当前尚停留在抽象、文本层面的国际共识转化为可操作的集体行动,切实推进治理议程进程
当前,人工智能正在以惊人的速度重塑社会形态,人工智能发展已迈向技术突破与规模化普及并行的关键时期,并呈现三大演进特征。
一是技术纵深突破。大模型进化速度加快,迭代周期压缩至“月级”,世界模型的探索推动人工智能从文本符号向物理世界延伸与跃迁,而智能体技术(AI Agent)的商业化落地进一步强化技术的自主性与执行力,开启“人机协同”的新范式。
二是应用广度爆发。生成式人工智能应用扩散速度远超历史上任何技术——ChatGPT周活跃用户超过4亿,中国生成式人工智能产品用户规模已达2.49亿人。
三是产业规模落地。生成式人工智能加速渗透化工、生物医药、医疗、交通等行业领域,赋能具体行业产业的生产力跃升。在此驱动下,2024年我国人工智能核心产业规模已接近6000亿元,而根据联合国贸发会议《2025年技术与创新报告》预测,2033年全球人工智能市场规模有望达到4.8万亿美元。人工智能正全面融入经济社会的肌理骨骼,成为拉动产业数智化转型、培育新质生产力的核心引擎。
技术与产业上狂飙猛进的同时,多重风险也逐步显现。生成式人工智能加剧深度伪造与虚假信息泛滥,侵蚀社会信任基石。AI加持下技术门槛降低使网络攻击、生物化学武器制造等恶用风险增大,加剧全球安全威胁。行业智能化转型出现结构性就业替代,冲击既有经济秩序。全球算力、数据与人才资源集中在少数国家,发展中国家面临“算力—数据—模型—人才”的四重匮乏,智能鸿沟拉大深化全球发展不平等。
技术狂奔的列车若无治理规则约束,可能将技术异化引发系统性危机。面对人工智能技术创新与接踵而来的治理挑战,技术迭代速率与治理响应周期脱节,全球治理框架滞后与监管路线的分裂,正将人类的发展与未来推向充满张力的“十字路口”。技术发展与治理行动间的撕裂加剧,人工智能全球治理框架亟待破局。
全球人工智能治理的行动赤字
人工智能技术的发展正在重塑国际权力结构与治理体系,人工智能的全球治理进入多边机制主导,伦理、标准、规则多元探索的初步阶段。整体上来看,治理格局的碎片化、阵营化突出,全球治理面临的核心矛盾是治理目标、需求同行动能力之间的系统性脱嵌,难以转化为有效的治理实践,并产生显著的“行动赤字”。
当前,全球人工智能治理的行动赤字根植于四重结构性冲突与困境。
根本层面,技术迭代速率同治理行动响应存在严重脱节。人工智能技术发展所具有的快速迭代、难以预测的特性对治理响应速率提出极高要求,治理行动滞后性凸显,规则供给持续落后于技术演进,治理实践难以匹配人工智能风险的衍生速度与叠加复杂度。
治理共识层面,安全需求与发展诉求间形成价值冲突,并引发刚性监管与弹性创新的制度路线分裂。以欧盟《人工智能法》与美国前总统拜登任内出台的人工智能行政令为代表,安全需求强调对风险控制的刚性约束,提倡硬性监管;而特朗普政府旗帜鲜明主张发展优先,批评过度监管遏制技术创新,提倡放松管制。发展与安全的内在辩证关系割裂,不仅制造了价值对立,其实质更是少数国家以“发展包装竞争”的叙事裹挟广大发展中国家真正的发展需求。受此影响既定安全议程陷入搁置,重大风险集体管控的合法性受个别国家利益偏好削弱,同时也迫使全球其他国家调整战略重心,投入到新一轮大规模投资与技术竞赛之中。
治理格局层面,全球治理碎片化、阵营化,意识形态先行、技术竞争优先的国别策略正不断挤压全球治理合作的空间。尽管以联合国框架为主导的多边机制积极推进人工智能全球治理进程,但多线并行的多边机制导致统一协调能力弱化,全球规则制定的主导权竞争加剧。多边协同的努力也受到少数技术优势国意识形态先行、技术竞争优先的竞争策略阻挠,出现“拉小圈子”、对抗合作的态势。个别国家接连发布针对人工智能关键技术的出口管制规则,拒绝在巴黎人工智能行动峰会上签署声明,割裂全球治理阵营,不断挤压国际合作的信任空间,阻碍协调、一致的国际治理体系和规则落地。
治理实施层面,全球治理体系呈现“三多三少”特征,治理议程空置,行动落地缓慢。首先是多边机制多,但实体执行机构阙如;其次是非约束性的伦理原则、技术标准、治理倡议等软法规范层出不穷,但具有法律约束力和强制执行力的“硬性”国际条约、协定稀缺;最后是治理议程丰富多元,覆盖面广泛,但实际资源投入和协调行动明显不足。“三多三少”的结构性矛盾致使人工智能全球治理出现议题多而不决、决而不行,共识难以转化为具体、有效规则和行动的问题,治理架构失能困境凸显,无法有效应对人工智能技术带来的治理挑战。
这些结构性冲突催生出人工智能全球治理的行动赤字,并主要表现为四个方面:其一是共识空转。以《人工智能伦理问题建议书》(UNESCO)、《全球数字契约》等宣言文件为代表,国际社会已在人工智能伦理与治理原则上达成一定共识,但共识往往停留在抽象层面,而在具体的治理标准、实施路径上缺乏实质性进展。共识空转导致治理推进缓慢,且因地区文化、价值观等差异无法形成各方共同认可的行动纲领和具备互操作性的规则标准。
其二是治理反转。2025年美国、欧盟相继出现重大治理调整:特朗普政府于年初撤销拜登政府签署的人工智能行政令,要求放松管制;欧盟近几个月先后发布《人工智能大陆行动计划》,撤回《人工智能责任指令》提案,拟议修改《通用数据保护条例》,旨在放松监管力度,促进创新投入。这些治理转向并非纯粹基于技术演进的客观情况,而更多受地缘政治博弈的短期利益驱动。治理路线与承诺的反复增大了全球治理的不确定性,阻碍深入的国际合作。
其三是执行真空。人工智能技术的复杂性和跨国性要求治理机制具备全球协调能力与技术资源支持,当前即使在部分领域或议题达成治理协议,也缺乏有效的国际合作与执行机制,执行力不足致使治理效果不彰。例如,2024年9月通过的全球首个人工智能国际公约《人工智能、人权、民主与法治框架公约》虽明确规定各缔约方应建立有效的监督机制,但迄今为止并未明确建立或指定监督机构,条约义务履行的约束力薄弱。
其四是问责匮乏。当前人工智能全球治理体系缺乏系统性的问责机制设计,既未明确各方治理主体的权力合法性基础,亦未确立技术恶用滥用或治理失效情形下的责任分配与惩罚机制。问责的制度性缺位致使治理主体的行为缺乏强制力震慑,在很大程度上削弱了治理框架的稳定性和可信度。
推动人工智能全球治理务实行动
当前,在人工智能技术快速迭代、地缘政治博弈激烈与全球治理方向未明的背景下,中国坚持以长期稳定的战略部署为基石,以发展与安全并重为理念,通过具体领域的规则落地与敏捷治理的模式创新,为破解全球治理行动赤字提供了可操作的中国实践路径。
通过稳定持续的战略部署,为不确定环境提供确定性秩序。2023年发布的《全球人工智能治理倡议》成为中国参与全球治理的纲领性文件,在“以人为本、智能向善”的理念宗旨下,中国通过联合国、世界人工智能大会、金砖国家、上海合作组织等多边平台,持续推动开放、公正、有效的人工智能治理机制落地,为全球治理注入宝贵的稳定预期。
坚持发展与安全理念并重,平衡技术创新与风险管控。中国充分认识到发展与安全之间的辩证关系,既不因发展而忽视安全需求,也不将安全视为发展的阻碍限制。一方面,中国提出人工智能能力建设方案,呼吁关注发展中国家的发展与治理诉求,另一方面,中国积极参与国际有关人工智能安全治理的对话合作,明确提出管控人工智能军事应用,确保其始终处于人类控制之下。
积极推动具体领域技术与规则落地,务实解决治理挑战。中国注重在具体领域促进人工智能融入经济社会。在应用端,提出以场景创新推动人工智能高水平应用、促进经济高质量发展的方针,着力打造如自动驾驶、智慧医疗、智能养老等重点应用场景,务实稳健推动人工智能技术向产品、产业的转化。在治理端,基于不同应用场景下产生的实际安全风险,针对性地制定治理政策、标准与规范。
敏捷治理化解动态风险,提升治理响应能力。面对人工智能快速发展引发的复杂、不确定性风险,中国出台《新一代人工智能治理原则》《关于加强科技伦理治理的意见》等一系列文件,相继提出敏捷治理的原则,围绕技术要素与具体场景的分层治理机制,灵活运用技术、法律与伦理等综合治理手段,协同政府、企业、社会等多元主体开展协同治理。
加快构建人工智能全球治理的行动共同体
人工智能作为深刻变革人类社会的颠覆性技术,其技术研发依托全球协作、成果惠及共同福祉、风险蔓延世界各国。人工智能的发展与治理正成为实践人类命运共同体的关键场域。
我们认为:在人类命运共同体理念指导下,基于共商共建共享的基本原则,为破解当前治理的行动赤字困境,应当加快构建人工智能全球治理的行动共同体,围绕行动理念、行动主体、行动机制、行动领域与行动策略,将当前尚停留在抽象、文本层面的国际共识转化为可操作的集体行动,切实推进治理议程进程。具体来看:
行动理念上,坚守“以人为本”的价值观,倡导“共护人类安全、共享发展红利”的理念,平衡当下安全与创新、监管与去监管的价值分歧。特别需要倡导,人工智能治理不应成为技术竞争或地缘博弈的手段或工具,而应在尊重各国发展需求、阶段差异的前提下,以治理促发展,真正使技术进步服务于消除贫困、改善健康等人类福祉。
行动策略上,采取“专项突破、渐进合围”的务实治理路径。短期内对规则推动进程较快的议题率先突破,构建执行机制。例如在《联合国打击网络犯罪公约》基础上继续推动网络犯罪跨国执法合作与管辖互认,深化专门领域或议题的治理行动。探索针对特定议题、特定区域、特定领域的小切口治理合作,如自动驾驶、智慧医疗方面的治理合作与标准制定,避免“打包式”议程讨论带来的共识空转。通过“以点带面、重点突破、试点示范”促进国际共识与合作落地。
行动主体上,构建“多元参与、分层治理”的国际协同网络。单一的多边进程无法充分应对人工智能嵌入社会的广泛议题,无法充分调用技术、资源应对其跨国风险与影响。通过构建国际协作网络,形成主权国家、国际组织、科技企业、科学界与公民社会的治理合力,在明确各方定位基础上,充分发挥多方主体各自的能力与优势,实现分层治理。例如,基于科技企业、科学界在技术、研究上的优势,重点发挥其在安全风险评估、技术工具开发等方面的作用,推动人工智能安全风险防范与治理落地。
行动机制上,探索“新旧结合、分布式治理”的动态灵活机制。一方面赋能革新既有国际组织(联合国及其附属机构),整合分散的AI治理文件,组建常设治理机构,优化议事规则,使其革新为规则制定、标准协调、信息共享和能力建设的主干平台。另一方面支持主权国家、区域组织、行业联盟、学术机构等基于共同关切或能力优势孵化新的治理平台,形成“全球—区域—国别”的分布式治理节点。通过核心原则互认、标准规则互操作及信息共享,实现新旧协同与节点联动,并最终构建覆盖全球的分布式治理网络。“新旧结合、分布式治理”的动态机制设计,可以克服传统多边机制的迟滞与僵化,同时避免完全碎片化带来的混乱与低效。
行动领域上,聚焦“迫近风险、普惠赋能”双轨推进。在安全治理领域,基于科学评估和社会关切优先治理具有突出、现实安全风险的领域,如军事应用、数据跨境安全、恶用滥用等;在发展治理领域,将支持发展中国家能力建设作为行动共同体的优先任务和长期战略,利用开源生态、共同基金等形式,推动发展中国家的AI基础设施、模型能力与应用服务建设,推动技术普惠,缩小智能鸿沟。
(作者分别为yh86银河公共管理学院教授、人工智能国际治理研究院副院长;yh86银河公共管理学院博士后、人工智能国际治理研究院助理研究员)
编辑:李华山